Recently it has been shown that state-of-the-art NLP models are vulnerable to adversarial attacks, where the predictions of a model can be drastically altered by slight modifications to the input (such as synonym substitutions). While several defense techniques have been proposed, and adapted, to the discrete nature of text adversarial attacks, the benefits of general-purpose regularization methods such as label smoothing for language models, have not been studied. In this paper, we study the adversarial robustness provided by various label smoothing strategies in foundational models for diverse NLP tasks in both in-domain and out-of-domain settings. Our experiments show that label smoothing significantly improves adversarial robustness in pre-trained models like BERT, against various popular attacks. We also analyze the relationship between prediction confidence and robustness, showing that label smoothing reduces over-confident errors on adversarial examples.
translated by 谷歌翻译
Deep neural networks have emerged as the workhorse for a large section of robotics and control applications, especially as models for dynamical systems. Such data-driven models are in turn used for designing and verifying autonomous systems. This is particularly useful in modeling medical systems where data can be leveraged to individualize treatment. In safety-critical applications, it is important that the data-driven model is conformant to established knowledge from the natural sciences. Such knowledge is often available or can often be distilled into a (possibly black-box) model $M$. For instance, the unicycle model for an F1 racing car. In this light, we consider the following problem - given a model $M$ and state transition dataset, we wish to best approximate the system model while being bounded distance away from $M$. We propose a method to guarantee this conformance. Our first step is to distill the dataset into few representative samples called memories, using the idea of a growing neural gas. Next, using these memories we partition the state space into disjoint subsets and compute bounds that should be respected by the neural network, when the input is drawn from a particular subset. This serves as a symbolic wrapper for guaranteed conformance. We argue theoretically that this only leads to bounded increase in approximation error; which can be controlled by increasing the number of memories. We experimentally show that on three case studies (Car Model, Drones, and Artificial Pancreas), our constrained neurosymbolic models conform to specified $M$ models (each encoding various constraints) with order-of-magnitude improvements compared to the augmented Lagrangian and vanilla training methods.
translated by 谷歌翻译
本文解决了在通信和传感器有限的动态环境中运行的移动机器人的安全计划和控制问题。在这种情况下,机器人无法感知周围的对象,而必须像在水下应​​用中那样依靠间歇性的外部信息。在这种情况下,挑战是机器人必须仅使用此陈旧数据计划,同时考虑到数据中的任何噪声或环境中的不确定性。为了应对这一挑战,我们提出了一种构图技术,该技术利用神经网络仅使用间歇性信息来快速通过拥挤和动态的环境来计划和控制机器人。具体而言,我们的工具使用可及性分析和潜在领域来训练能够生成安全控制动作的神经网络。我们通过跨越拥挤的运输渠道的水下车辆以及在通信和传感器限制环境中进行地面车辆进行的真实实验,展示了我们的技术。
translated by 谷歌翻译
机器学习模型容易对远离培训分布的投入进行错误的预测。这阻碍了他们在自动驾驶汽车和医疗保健等安全至关重要应用中的部署。从单个数据点的训练分布转移的检测引起了人们的注意。已经提出了许多用于分发(OOD)检测的技术。但是在许多应用中,机器学习模型的输入形成了时间序列。时间序列数据中的OOD检测技术要么不利用序列中的时间关系,要么不提供任何检测保证。我们建议将偏离分布式时间均衡力偏差作为在时间序列数据中进行OOD检测的保形异常检测框架中的不符合度量度。导致提议的检测器编码,并保证在时间序列数据中进行虚假检测。我们通过在自动驾驶中实现计算机视觉数据集的最新结果来说明编码的功效。我们还表明,通过在生理步态感觉数据集上执行实验,可以将CODIT用于非视觉数据集中的OOD检测。代码,数据和训练有素的模型可在https://github.com/kaustubhsridhar/time-series-ood上找到。
translated by 谷歌翻译
不确定性量化是针对安全至关重要系统(例如医疗保健或自动驾驶汽车)的机器学习模型的关键组成部分。我们在元学习的背景下研究了这个问题,其目标是快速使预测因子适应新任务。特别是,我们提出了一种新颖的算法来构建\ emph {pac预测集},该算法通过一组标签捕获不确定性,该标签可以通过仅几个培训示例来适应新任务。这些预测设置满足了典型的PAC保证对元学习设置的扩展;特别是,PAC保证对未来任务的可能性很高。我们证明了在三个应用程序域中的四个数据集上的方法的功效:视觉域中的Mini-ImageNet和Cifar10-C,语言域中的很少的MINGREL,以及医疗域中的CDC Heart数据集。特别是,与其他满足此保证的基线相比,我们的预测设置满足PAC保证,同时具有较小的大小。
translated by 谷歌翻译
对抗性训练(AT)及其变体在过去几年来改善对对抗性扰动和常见腐败的神经网络的鲁棒性方面取得了长足的进步。 AT及其变体的算法设计集中在指定的扰动强度$ \ epsilon $上,并且仅利用该$ \ epsilon $ -Robust模型的性能的反馈来改善算法。在这项工作中,我们专注于在$ \ epsilon $值的频谱上训练的模型。我们分析了三个观点:模型性能,中间特征精度和卷积滤波器灵敏度。在每种情况下,我们都会确定AT的替代改进,否则在单个$ \ epsilon $中并不明显。具体来说,我们发现,对于以某种强度$ \ delta $的pgd攻击,有一个型号以某种稍大的强度$ \ epsilon $,但没有更大的范围,可以概括它。因此,我们建议过度设计鲁棒性,我们建议以$ \ epsilon $略高于$ \ delta $的培训模型。其次,我们观察到(在各种$ \ epsilon $值中),鲁棒性对中间特征的精度,尤其是在第一层和第二层之后的精度高度敏感。因此,我们建议在防御措施中添加简单的量化,以提高可见和看不见的适应性攻击的准确性。第三,我们分析了增加$ \ epsilon $的每一层模型的卷积过滤器,并注意到第一和第二层的卷积过滤器可能完全负责放大输入扰动。我们通过在CIFAR-10和CIFAR-10-C数据集上使用Resnet和WideSnet模型进行实验,介绍我们的发现并证明我们的技术。
translated by 谷歌翻译
机器学习模型的性能会在数据的分布变化下大大降低。我们提出了一种新的分类方法,可以通过将有关数据的“高级”结构与标准分类器相结合,可以改善分配变化的鲁棒性。 。然后,在每个群集中,我们通过诸如Deep Neural Networks之类的标准模型来学习基于更精细的歧视特征的本地分类器。我们在内存分类器中建立了概括界限。我们在实验中说明它们可以改善图像数据集上的分布变化的概括和稳健性。我们展示的进步超出了标准数据增强技术。
translated by 谷歌翻译
异常检测对于预防自动驾驶(例如自动驾驶)的安全性危险结果至关重要。鉴于它们的安全至关重要,这些应用程序受益于在异常检测中的各种错误中的可证明界限。为了在半监督的环境中实现这一目标,我们建议对异常检测算法的假阴性和假阳性检测率提供大致正确的(PAC)保证。我们的方法(PAC包)几乎可以围绕任何现有的半监督和无监督的异常检测方法,从而获得严格的保证。我们对各种异常检测器和数据集进行的实验表明,PAC包装是广泛有效的。
translated by 谷歌翻译
长期的Horizo​​n机器人学习任务稀疏的奖励对当前的强化学习算法构成了重大挑战。使人类能够学习挑战的控制任务的关键功能是,他们经常获得专家干预,使他们能够在掌握低级控制动作之前了解任务的高级结构。我们为利用专家干预来解决长马增强学习任务的框架。我们考虑\ emph {选项模板},这是编码可以使用强化学习训练的潜在选项的规格。我们将专家干预提出,因为允许代理商在学习实施之前执行选项模板。这使他们能够使用选项,然后才能为学习成本昂贵的资源学习。我们在三个具有挑战性的强化学习问题上评估了我们的方法,这表明它的表现要优于最先进的方法。训练有素的代理商和我们的代码视频可以在以下网址找到:https://sites.google.com/view/stickymittens
translated by 谷歌翻译
诸如深神经网络(DNN)之类的机器学习方法,尽管他们在不同域中取得了成功,但是众所周知,通常在训练分布之外的输入上具有高信心产生不正确的预测。在安全关键域中的DNN部署需要检测分配超出(OOD)数据,以便DNN可以避免对那些人进行预测。最近已经开发了许多方法,以便检测,但仍有改进余地。我们提出了新的方法IdeCode,利用了用于共形OOD检测的分销标准。它依赖于在电感共形异常检测框架中使用的新基础非符合性测量和新的聚合方法,从而保证了有界误报率。我们通过在图像和音频数据集上的实验中展示了IDecode的功效,获得了最先进的结果。我们还表明Idecode可以检测对抗性示例。
translated by 谷歌翻译